背景:越来越多地认识到,仅根据常规临床护理得出的完全包容的大规模收集,脑部肿瘤的复杂异质性越来越多。这是当代机器学习可以促进的一项任务,尤其是在神经影像方面,但是它处理在现实世界中临床实践中常见的不完整数据的能力仍然未知。在这里,我们将最新方法应用于大规模的多站点MRI数据,以量化自动化肿瘤分割模型的比较保真度,以复制在临床现实中观察到的各种完整性水平。方法:我们将深度学习(NNU-NET衍生的)肿瘤分割模型与T1,对比增强的T1,T2和Flair Imaging序列的所有可能组合进行了比较,并在2021 Brats-brats-- RSNA胶质瘤人群为1251名患者,并对多样化的50例患者样本进行了测试。结果:经过训练的不完整数据分割病变的模型,通常等效于对完整数据培训的模型,表现为0.907(单个序列)至0.945(完整数据集)的骰子系数(全数据集),而0.701(单个序列)(单个序列)至0.891(完整的数据集中) )用于组件组织类型。不完整的数据分割模型可以在没有对比成像的情况下准确检测增强肿瘤,从而用R2在0.95-0.97之间量化其体积。结论:深度学习分割模型在缺少数据时很好地表征了肿瘤,甚至可以在不使用对比度的情况下检测增强组织。这表明转化为临床实践(不完整的数据是常见的,可能比迄今为止认为的要容易得多,并且在减少对比鲜明使用的依赖性方面可能具有价值。
translated by 谷歌翻译
We address the problem of extracting key steps from unlabeled procedural videos, motivated by the potential of Augmented Reality (AR) headsets to revolutionize job training and performance. We decompose the problem into two steps: representation learning and key steps extraction. We employ self-supervised representation learning via a training strategy that adapts off-the-shelf video features using a temporal module. Training implements self-supervised learning losses involving multiple cues such as appearance, motion and pose trajectories extracted from videos to learn generalizable representations. Our method extracts key steps via a tunable algorithm that clusters the representations extracted from procedural videos. We quantitatively evaluate our approach with key step localization and also demonstrate the effectiveness of the extracted representations on related downstream tasks like phase classification. Qualitative results demonstrate that the extracted key steps are meaningful to succinctly represent the procedural tasks.
translated by 谷歌翻译
迄今为止,通信系统主要旨在可靠地交流位序列。这种方法提供了有效的工程设计,这些设计对消息的含义或消息交换所旨在实现的目标不可知。但是,下一代系统可以通过将消息语义和沟通目标折叠到其设计中来丰富。此外,可以使这些系统了解进行交流交流的环境,从而为新颖的设计见解提供途径。本教程总结了迄今为止的努力,从早期改编,语义意识和以任务为导向的通信开始,涵盖了基础,算法和潜在的实现。重点是利用信息理论提供基础的方法,以及学习在语义和任务感知通信中的重要作用。
translated by 谷歌翻译
我们提出了一种适用于半全球任务的自学学习(SSL)方法,例如对象检测和语义分割。我们通过在训练过程中最大程度地减少像素级局部对比度(LC)损失,代表了同一图像转换版本的相应图像位置之间的局部一致性。可以将LC-LOSS添加到以最小开销的现有自我监督学习方法中。我们使用可可,Pascal VOC和CityScapes数据集评估了两个下游任务的SSL方法 - 对象检测和语义细分。我们的方法的表现优于现有的最新SSL方法可可对象检测的方法1.9%,Pascal VOC检测1.4%,而CityScapes Sementation则为0.6%。
translated by 谷歌翻译
具有注释的缺乏大规模的真实数据集使转移学习视频活动的必要性。我们的目标是为少数行动分类开发几次拍摄转移学习的有效方法。我们利用独立培训的本地视觉提示来学习可以从源域传输的表示,该源域只能使用少数示例来从源域传送到不同的目标域。我们使用的视觉提示包括对象 - 对象交互,手掌和地区内的动作,这些地区是手工位置的函数。我们采用了一个基于元学习的框架,以提取部署的视觉提示的独特和域不变组件。这使得能够在使用不同的场景和动作配置捕获的公共数据集中传输动作分类模型。我们呈现了我们转让学习方法的比较结果,并报告了阶级阶级和数据间数据间际传输的最先进的行动分类方法。
translated by 谷歌翻译